10 research outputs found

    Describing the Access Network by Means of Router Buffer Modelling: a New Methodology

    Get PDF
    The behaviour of the routers’ buffer may affect the quality of service (QoS) of network services under certain conditions, since it may modify some traffic characteristics, as delay or jitter, and may also drop packets. As a consequence, the characterization of the buffer is interesting, especially when multimedia flows are transmitted and even more if they transport information with real-time requirements.This work presents a new methodology with the aim of determining the technical and functional characteristics of real buffers (i.e., behaviour, size, limits, and input and output rate) of a network path. It permits the characterization of intermediate buffers of different devices in a network path across the Interne

    On optimal resource allocation in virtual sensor networks

    Get PDF
    En los últimos años, el uso de dispositivos interconectados ha aumentado notablemente, tanto que el término Internet de las Cosas (o Internet of Things) se emplea para reconocer este nuevo paradigma tecnológico. En términos generales, consiste en la interconexión digital de todos los dispositivos que nos rodean con el objetivo de que se comuniquen entre ellos, haciéndolos más inteligentes e independientes. Según estudios del pasado año 2017, se vaticinaba que, a finales de 2017, serían aproximadamente 8,4 miles de millones los dispositivos interconectados, llegando a ser 11,2 miles de millones en 2018. Según sus predicciones estas cifras se duplicarían para 2020, alcanzando los 20,5 miles de millones de dispositivos interconectados.Internet de las Cosas se basa en las redes inalámbricas de sensores (Wireless Sensor Networks - WSNs), compuestas por un elevado número de dispositivos de bajo coste y bajo consumo capaces tanto de monitorizar su entorno como de procesar datos y comunicarse entre sí de un modo cooperativo. Tal y como ha demostrado su desarrollo durante los últimos años, estas redes tienen cada vez mayor importancia en nuestra sociedad, dado el considerable número de aplicaciones a las que puede dar servicio. Internet de las Cosas no solo está ganando fuerza en el sector tecnológico, sino que también se está asentando cada vez más en nuestra sociedad. Da servicio a la gestión de casas inteligentes (Smart Homes), o incluso ciudades (Smart Cities), la monitorización médica domiciliaria, la automatización industrial y/o agrícola, y un largo etcétera.Actualmente, el despliegue habitual en el caso de las redes de sensores se centra en una aplicación determinada. Es decir, se despliegan sensores específicos que crean una red concreta para monitorizar cierta información, independientemente de que en esa zona geográfica existan otras redes desplegadas para otros usos, produciéndose así una superposición de infraestructuras de red. Esta metodología no resulta eficiente, más aun teniendo en cuenta que en la mayoría de los casos de uso, los sensores suelen estar inactivos la mayor parte del tiempo. Por otra parte, el desarrollo tecnológico de los sensores puede permitir también el despliegue de nodos multi-propósito capaces de monitorizar diversos parámetros con un único dispositivo. En estos nuevos escenarios, parece razonable plantear mecanismos que permitan que aplicaciones compartan los recursos físicos disponibles (sensores y redes) en una determinada zona, independientemente de su heterogeneidad. En este contexto surge el concepto de redes virtuales de sensores (Virtual Sensor Networks- VSNs). Estas redes tratan de desacoplar el despliegue físico de sensores de las aplicaciones que funcionan sobre ellos. De este modo, es posible reutilizar redes de sensores más allá de su intención original, para dar servicio a nuevas aplicaciones, con las consiguientes mejoras en cuanto a flexibilidad, eficiencia, reducción de costes, etc. Por lo tanto, las VSNs tienen un gran potencial para mejorar el rendimiento y la escalabilidad en el despliegue de las redes inalámbricas de sensores, facilitando la reutilización de recursos. En este contexto, esta tesis pretende abordar algunos de los múltiples retos de investigación que supone llevar efectivamente a la práctica esta nueva realidad.Como primer paso, se ha propuesto un análisis matemático formal que plantea, desde varias perspectivas, un problema de optimización para la asignación de recursos en una red virtual de sensores. Inicialmente se plantea el problema desde una perspectiva estática, en la que la red debe satisfacer durante todo su tiempo de vida los requisitos de las aplicaciones demandantes. El problema se ha analizado mediante la evaluación detallada de los parámetros que lo modelan, lo que ha permitido su validación. Tras esta, se ha procedido al diseño de un algoritmo heurístico, basado en la resolución iterativa de problemas lineales relajados y simplificados, capaz de aproximarse a la solución óptima en menor tiempo computacional. En segundo lugar, se ha ampliado el problema considerando en este caso un escenario dinámico, donde distintas aplicaciones llegan al sistema en diferentes instantes de tiempo y los nodos pueden quedarse sin batería, por lo que la red tiene que ser reconfigurada. Es decir, hay una reasignación de recursos. Debido a que la asignación se realiza a medida que llegan las aplicaciones y no se puede tener una visión global de lo que llegará en el futuro, no son estrategias óptimas. Por ello, también se ha diseñado un algoritmo de optimización global que, asumiendo el conocimiento exacto de cuándo llegarán las aplicaciones, los recursos que se van a necesitar y sus tiempos de vida, selecciona cuáles van a poder ser desplegadas en el sistema y en qué nodos. Aunque no es un diseño implementable desde un punto de vista práctico, simplemente trata de proporcionar una cota superior para evaluar las estrategias diseñadas. La gran complejidad computacional de esta propuesta ha hecho necesaria la búsqueda de escenarios donde poder analizar su comportamiento en tiempo razonable. Finalmente, y como prueba de concepto, se ha diseñado una arquitectura para la implementación de una solución real para la asignación dinámica de recursos en redes de sensores compartidas. Gracias al método OTA (Over The Air programming), que consiste en la programación y configuración remota de los dispositivos de la red de sensores, se ha podido comprobar que las propuestas matemáticas diseñadas durante la tesis podrían ser implementables en dispositivos reales. Específicamente, el diseño contempla diversas configuraciones de red en las que los dispositivos finales son capaces de monitorizar ciertos parámetros (temperatura, humedad, luminosidad y presencia) y enviar las medidas a través de la red multisalto a un controlador central. Dicho controlador, de acuerdo a las mismas, decide la reconfiguración de la red, materializable mediante la reprogramación de los dispositivos según los diversos programas de sensado que se han diseñado.En definitiva, este trabajo presenta distintos algoritmos matemáticos para la asignación eficiente de recursos en redes virtuales de sensores y muestra su implementabilidad gracias un diseño en dispositivos reales.<br /

    A dynamic access point allocation algorithm for dense wireless LANs using potential game

    Get PDF
    This work introduces an innovative Access Point (AP) allocation algorithm for dense Wi-Fi networks, which relies on a centralised potential game developed in a Software-Defined Wireless Networking (SDWN)-based framework. The proposed strategy optimises the allocation of the Wi-Fi stations (STAs) to APs and allows their dynamic reallocation according to possible changes in the capacity of the Wi-Fi network. This paper illustrates the design of the proposed framework based on SDWN and the implementation of the potential game-based algorithm, which includes two possible strategies. The main novel contribution of this work is that the algorithm allows us to efficiently reallocate the STAs by considering external interference, which can negatively affect the capacities of the APs handled by the SDWN controller. Moreover, the paper provides a detailed performance analysis of the algorithm, which describes the significant improvements achieved with respect to the state of the art. Specifically, the results have been compared against the AP selection considered by the IEEE 802.11 standards and another centralised algorithm dealing with the same problem, in terms of the data bit rate provided to the STAs, their dissatisfaction and Quality of Experience (QoE). Finally, the paper analyses the trade-off between efficient performance and the computational complexity achieved by the strategies implemented in the proposed algorithm

    Toma de decisiones descentralizada en sistemas distribuidos con recursos computacionales de capacidad heterogénea.

    Get PDF
    Durante los últimos años, debido al enorme desarrollo de los dispositivos electrónicos, la capacidad para generar datos ha aumentado significativamente, lo que ha dado como resultado la producción de una amplia variedad de información. Los sistemas de computación de datos necesitan adaptarse a esta nueva ola creciente, para ello es necesario cambiar de un paradigma tradicional centralizado a uno descentralizado. Esto resolvería el principal problema de los sistemas actuales, su escalabilidad, pero generaría otros problemas típicos del paradigma distribuido debido a la escasa investigación en este campo durante las últimas décadas. En este Trabajo Final de Grado vamos a diseñar e implementar un sistema distribuido descentralizado, que explore cómo el paradigma de programación declarativo (en particular, los sistemas expertos, un tipo de inteligencia artificial que busca emular el comportamiento de un experto en su área de conocimiento) puede ayudar a construir sistemas distribuidos con mayor capacidad para auto adaptarse bajo condiciones de ejecución cambiantes. En general, en este contexto de gran generación de datos, las fuentes de datos o los nodos cercanos a ellas tienen baja capacidad de computación, mientras que los nodos con mayor capacidad están más alejados en la nube. Las aplicaciones que recopilan datos suelen tener asignados unos requisitos temporales para llevar a cabo el procesamiento asociado, que suele denominarse QoS de la aplicación. El problema consiste en decidir dónde deben procesarse esos datos, cumpliendo con esos requisitos de QoS. Para ello, los nodos que componen el sistema han de ser capaces de enviar datos a través de la red, conocer el estado de la red, y el estado de otros nodos que pueden procesar datos por él. Una vez los nodos tienen este conocimiento, son capaces de estimar el coste en tiempo del procesado de los datos, lo que les sirve para saber si están violando el QoS, y en caso de hacerlo buscar otra opción que sí lo cumpla. Es aquí donde entra el sistema experto. Comparamos sus decisiones con las de un sistema d e reglas estáticas (la forma tradicional de toma de decisiones) para comprobar si realmente puede aportar algo más de lo que aporta una solución a priori más sencilla. Tras recopilar datos de ambos tipos de decisiones sobre dos escenarios distintos durante veinticuatro horas, podemos concluir que los sistemas expertos poseen las cualidades necesarias para ser una alternativa válida y flexible en la implementación de soluciones bajo un paradigma distribuido. <br /

    Contribución al desarrollo de protocolos de acceso al Medio (MAC) en redes inalámbricas "ad hoc" multiservicio

    Get PDF
    La provisión de calidad de servicio (QoS) en redes inalámbricas ad hoc requiere el soporte de mecanismos de acceso al medio para gestionar eficientemente el acceso al sistema y conseguir un elevado reúso de los recursos. El estándar IEEE 802.11 es el protocolo de acceso al medio más utilizado en este contexto. Su principal ventaja, la sencillez, es a su vez la principal limitación para proporcionar QoS. El objetivo de esta tesis es el diseño y evaluación de un protocolo de acceso al medio que permita resolver las principales limitaciones de las propuestas existentes. Para ello, se ha diseñado una estructura TDMA consistente en una subtrama de control y una subtrama de datos, sobre la que se han incluido mecanismos de reserva de recursos y diferenciación de servicios. La propuesta se ha evaluado bajo un modelo de propagación realista, que incluye desvanecimientos multicamino e interferencia del resto de usuarios
    corecore